随机梯度下降(SGD)是深度学习技术的工作主控算法。在训练阶段的每个步骤中,从训练数据集中抽取迷你样本,并且根据该特定示例子集的性能调整神经网络的权重。迷你批量采样过程将随机性动力学引入梯度下降,具有非琐碎的状态依赖性噪声。我们在原型神经网络模型中表征了SGD的随机和最近引入的变体持久性SGD。在占地面定的制度中,在最终训练误差是阳性的情况下,SGD动力学达到静止状态,我们从波动耗散定理定义了从动态平均场理论计算的波动定理的有效温度。我们使用有效温度来量化SGD噪声的幅度作为问题参数的函数。在过度参数化的制度中,在训练错误消失的情况下,我们通过计算系统的两个副本之间的平均距离来测量SGD的噪声幅度,并具有相同的初始化和两个不同的SGD噪声的实现。我们发现这两个噪声测量与问题参数的函数类似。此外,我们观察到嘈杂的算法导致相应的约束满足问题的更广泛的决策边界。
translated by 谷歌翻译